خطرات واقعی استفاده از هوش مصنوعی برای درمان بیماری
بسیاری از مردم برای حمایت از سلامت روان، خود درمانی و مدیریت بیماریها به هوش مصنوعی روی می آورند حتی برای غلبه بر اضطراب در محیط کار و اختلافات زناشویی.
بر اساس نظر سنجی سال ۲۰۲۵ توسط هریس پول و انجمن روانشناسی آمریکا، بیش از نیمی از بزرگسالان ۱۸ تا ۵۴ سال و یک چهارم بزرگسالان ۵۵ سال به بالا، می گویند که با یک چت ربات هوش مصنوعی در مورد سلامت روان خود صحبت می کنند.
نکته مهم اینجاست که چت جی پی تی ها برای این کار طراحی نشده اند!
منتقدان هشدار می دهند که پتانسیل هوش مصنوعی برای سو گیری، عدم همدلی واقعی و نظارت محدود انسانی می تواند سلامت روانی کاربران را به ویژه در میان گروه های آسیب پذیری مانند کودکان، نوجوانان ، افراد مبتلا به بیماری های روانی و افرادی که افکار خودکشی دارند را به خطر بیندازد. نگرانی فزاینده منجر به ظهور اصطلاحات روان پریشی چت جی پی تی یا روان پریشی هوش مصنوعی شده است .
در برخی مراکز استفاده از هوش مصنوعی توسط متخصصان سلامت روان در برقرای ارتباط با مشتریان یا تصمیم گیری های درمانی را منع کرده اند.
البته مسائلی مانند کمبود پزشک، افزایش هزینه های درمان و پوشش نامناسب بیمه ها، روی آوردن مردم به هوش مصنوعی را تشویق می کند.
نقش اپلیکیشن ها در مدیریت سلامت روان
بر خلاف یک درمانگر، یک ربات همیشه در دسترس است. وقتی ساعت دو بامداد دچار بحران هستید و مراجعه به مراکز درمانی ساعت ها طول می کشد هوش مصنوعی در خدمت است!
البته نتایج اولیه کارآزمایی بالینی یک چت ربات درمانی مولد هوش مصنوعی، کاهش قابل توجه و معنادار بالینی در علائم افسردگی، اضطراب و اختلال خوردن را طی چهار تا هشت هفته نشان داد.
البته هنوز این مراحل مقدماتی تا تایید مراجع رسمی و قانون گذاری راه زیادی دارد.
شاید یکی از جذاب ترین جنبه های چت ربات ها این باشد که آنها قضاوت نمی کنند و این مسئله باعث می شود مردمی که تمایل به قضاوت شدن ندارند و یا نمی خواهند بیماریشان افشا شود به استفاده از آنها ترغیب شوند ( سربازانی که از مناطق جنگی و عملیاتی بر می گردند یکی از مشتری های پر و پا قرص چت ربات ها هستند!)
وقتی چت بات ها مضر هستند
مثلا می دانیم که جوامع سیاه و رنگین پوست به اندازه کافی در اکثر مطالعات تحقیقات بهداشت روان در مقیاس بزرگ بکار گرفته نمی شوند پس چت بات ممکن است ویژگی های این گروه های اقلیت را در بانک اطلاعات خودش نداشته باشد.
در ضمن آنها نظرات پراکنده را جمع می کنند و با مفروضاتی که ایجاد کرده اند ممکن است راهی پیشنهاد کنند که با واقعیت شخص کابر منافات داشته باشد و اگر مشکلی پیش بیاید چه کسی پاسخگو است؟
برخی ربات های گفتگو که برای همراهی و حمایت عاطفی به بازار عرضه می شوند، با انگیزه کسب درامد طراحی شده اند پس ممکن است شرایط نا فرم کاربر را هم تایید کند یا با او همراهی کند! در ضمن هیچ تعهد قانونی برای محافظت از این اطلاعات را هم ندارند!
پیامدهای روانشناختی ایجاد پیوند های عاطفی با هوش مصنوعی
درمقاله ای منتشر شده توسط مجله Trends in Cogbitive Sciences روانشناسان نگرانی خود را در مورد پیامدهای بلند مدت ایجاد پیوند های عاطفی با هوش مصنوعی ابراز کرده اند. چت بات ها می توانند جایگزین روابط واقعی کاربران شوند و شرکای عاشقانه، همکاران و دوستان را از صحنه واقعی زندگی محو کنند.
در وهله اول افراد شروع می کنند به اعتماد به نظرات و بازخوردهای چت بات ها نسبت به افراد واقعی .
گرچه، این عمل را می توان با گرسنگی و میل به غذا مقایسه کرد. مانند وقتی که گرسنه هستیم و به دنبال غذا هستیم در روابط اجتماعی هم برای برطرف کردن آنها نیاز به برقراری ارتباط با مردم و دوستان داریم و اگر یک چت بات آن را برطرف کند دیگر نیازی به بیرون رفتن و وقت گذرانی با دوستان نخواهد بود!
آینده درمان با هوش مصنوعی
آینده ای وجود خواهد داشت که در آن چت ربات های واقعا توسعه یافته برای پرداختن به سلامت روان داشته باشیم که به طور علمی هدایت بشوند ولی هنوز به آنجا نرسیده ایم.
اما در حال حاضر پیام واضح این است که ربات های گفتگو در آن مرحله نیستند.
کارشناسان هشدار داده اند تا آن زمان ، زیاد به آنها اعتماد نکنید و به یاد داشته باشید ، آنها جایگزینی برای کمک های تخصصی نیستند.
گردآوری دکتر علی سعادت پژوه
رفرانس webmd.com
WHO.int